Improved Denoising Diffusion Probabilistic Models(2021)
Denoising diffusion probabilistic models (DDPM) are a class of generative models which have recently been shown to produce excellent samples. DDPMは、最近、優れたサンプルを生成することが示されている生成モデルのクラスである
We show that with a few simple modifications, DDPMs can also achieve competitive log-likelihoods while maintaining high sample quality.
いくつかの簡単な修正により、DDPMは高いサンプル品質を維持しながら、競争力のある対数尤度を達成することができることを示す。
competitive log-likelihoodsが何を言っているのかわからない基素.icon
Additionally, we find that learning variances of the reverse diffusion process allows sampling with an order of magnitude fewer forward passes with a negligible difference in sample quality, which is important for the practical deployment of these models.
さらに、逆拡散過程の分散を学習することで、サンプルの品質に無視できるほどの差をつけながら、1桁少ない順方向パスでサンプリングが可能であることを発見した。
We additionally use precision and recall to compare how well DDPMs and GANs cover the target distribution.
さらに、精度と再現率を用いて、DDPMとGANがどの程度ターゲット分布をカバーしているかを比較する。
Finally, we show that the sample quality and likelihood of these models scale smoothly with model capacity and training compute, making them easily scalable. We release our code at this https URL
最後に、これらのモデルの標本品質と尤度は、モデル容量と学習計算量に対して滑らかにスケールすることを示し、容易にスケーラブルにすることが可能である
2021
こちらの論文では、オリジナルの DDPM にいくつかの改良を加えると、高速・高品質の画像生成が可能になることを示しています。具体的には、拡散過程で付加するノイズスケジュールを調整したり、ステップ幅 (時間) のサンプリング方法を改善したり、といった工夫により、尤度 (データがモデルにフィットする度合い) を改善できることを示しています。また、ノイズ除去に使う UNet のサイズを増やすことによって、生成画像の質が予測可能な形で改善することを示しています。